Facebook arată că sistemele sale automatizate au devenit mai eficiente în depistarea violenţelor explicite, a spamurilor şi a elementelor de conţinut sexual, însă sunt insuficiente, în cazul unor probleme mai noi, precum discursul ce instigă la ură, notează Rador.
Din raportul Facebook lipsesc informaţii despre situaţiile frecvente în care compania adoptă decizii eronate privind înlăturarea sau nu a unor conţinuturi. În multe aspecte privind utilizarea nepotrivită a acestor sisteme, compania afirmă că nu deţine informaţii de încredere şi, deşi are 17.000 de angajaţi care monitorizează aceste probleme, numeroase postări nocive trec neobservate.